فهرست مطالب

مجله پژوهش های نوین در ریاضی
پیاپی 3 (Autumn 2015)

  • تاریخ انتشار: 1394/09/25
  • تعداد عناوین: 7
|
  • سهند دانشور، نازیلا شاهی، فریبا نجف زاده صفحات 5-18
    تحلیل پوششی داده ها روشی براساس برنامه ریزی خطی است که برای اندازه گیری کارایی واحدهای تصمیم گیری متجانس با ورودی ها و خروجی های یکسان بکار می رود.
    کاستی در جداسازی واحدهای کارا و حصول اوزان غیر واقعی برای ورودی ها و خروجی ها از مشکلات عمده این روش مطرح شده است. در این مقاله با استفاده از آنالیز رویه ای برنامه ریزی آرمانی در تحلیل پوششی داده ها جهت رعایت بیشتر تجانس و افزایش قدرت توزیع مناسب وزن ها اصلاح می شود. این اصلاح با در نظر گرفتن کران های پایین مجزا برای تک تک اوزان ورودی و خروجی در مدل استاندارد سی سی ار و لحاظ کردن تنها یک کران بالا برای متغیر آزاد مدل استاندارد بی سی سی انجام می شود. در هر دو حالت اصلاحات مذکور موجب جلوگیری از بروز وزن ها با مقدار صفر می شود. برنامه ریزی آرمانی اصلاح شده در تحلیل پوششی داده ها همچنین قدرت تمیز تحلیل پوششی داده ها را افرایش می دهد. مزیت های هر یک از روش های فوق الذکر توسط چند مثال نشان داده می شود.
    کلیدواژگان: تحلیل پوششی داده ها، قدرت تشخیص، آنالیز رویه ای، برنامه ریزی هدف، پراش وزنی
  • سید هادی ناصری صفحات 19-28
    در این مقاله ما یک مدل شبکه عصبی برای تشخیص واحدهای تصمیم گیرنده کارا در تحلیل پوششی داده ها معرفی می کنیم.
    مدل شبکه عصبی پیشنهادی از یک مسئله بهینه سازی نامقید حاصل می شود. از دیدگاه تئوری نشان داده می شود شبکه عصبی پیشنهادی دارای پایداری لیاپانف و همگرای سراسری می باشد. مدل پیشنهادی تک لایه می باشد. شبیه سازی نشان می دهد مدل پیشنهادی قادر به تشخیص واحدهای کارا در تحلیل پوششی داده ها می باشد.
    کلیدواژگان: تابع تبدیل، برنامه ریزی خطی تماما فازی، برنامه ریزی خطی چند هدفه، اعداد فازی مثلثی و ذوزنقه ای
  • عباس قماشی، غلامرضا جهانشاهلو، فرهاد حسین زاده لطفی صفحات 29-40
    در این مقاله ما یک مدل شبکه عصبی برای تشخیص واحدهای تصمیم گیرنده کارا در تحلیل پوششی داده ها معرفی می کنیم.
    مدل شبکه عصبی پیشنهادی از یک مسئله بهینه سازی نامقید حاصل می شود. از دیدگاه تئوری نشان داده می شود شبکه عصبی پیشنهادی دارای پایداری لیاپانف و همگرای سراسری می باشد. مدل پیشنهادی تک لایه می باشد. شبیه سازی نشان می دهد مدل پیشنهادی قادر به تشخیص واحدهای کارا در تحلیل پوششی داده ها می باشد.
    کلیدواژگان: شبکه عصبی بازگشتی، روش گرادیان، تحلیل پوششی داده ها، واحد کارا، پایداری، همگرایی عمومی
  • آذر خشنوا، محمدرضا مظفری صفحات 41-54
    مسئله حمل و نقل، یک مساله برنامه ریزی خطی است که حداقل هزینه را برای حمل یک محصول ازتعدادی مبدا به تعدادی مقصد از قبیل کارخانه به انبار یا انبار به سوپر مارکت لحاظ می کند. برای حل این مساله الگوریتم سیمپلکس درنظر گرفته شده است. در پروژه های عملی هزینه و مقدار عرضه و تقاضا اعداد فازی هستند و انتظار می رود جوابهای بهینه که مقدار کالایی که از مبدا به مقصد را تعیین می کند، به صورت فازی تعیین شود بنابراین در ابتدا ایده در شرایط کاملا فازی و سپس الگوریتمی که اولویت بندی برای حل چنین مساله ای است ارائه می شود. در این مقاله الگوریتمی جدید برای حل مسائل حمل و نقل در حالت کاملا فازی پیشنهاد می شود. این الگوریتم، مساله ی حمل و نقل در حالت کاملا فازی را به یک مساله سه هدفه تبدیل و سپس از روش وزن دار شده در حل مسائل چندهدفه استفاده می کند و سپس مساله ی جدید را با روش سیمپلکس حل می کند. در خاتمه روش پیشنهادی برای داده های واقعی استفاده می شود.
    کلیدواژگان: مساله حمل و نقل کاملا فازی، اعداد فازی مثلثی، مساله برنامه ریزی خطی چند هدفه
  • معصومه عباسی، محسن رستمی مال خلیفه صفحات 55-68
    تراکم یک مرحله هدردهنده در فرایند تولید است که در آن به کار بردن زیاد ورودی ها باعث کاهش خروجی ها می شود. چندین رهیافت در مقالات تحلیل پوششی داده ها وجود دارند که به بررسی تراکم پرداخته اند. مفهوم تراکم قوی و ضعیف اولین بار توسط تن و ساهو توسعه پیدا کرد. تراکم قوی زمانی رخ می دهد که یک کاهش متناسب در تمام ورودی ها منجر به افزایش در تمام خروجی ها شود. تن و ساهو رابطه بین تراکم و دیگر مفاهیم اقتصادی مانند نرخ تولید حاشیه ای را گسترش دادند. آنها ثابت کردند که وجود تراکم قوی منوط به نرخ تولید حاشیه ای منفی است. به هر حال تعریف تراکم قوی بسیار محدود کننده است. زیرا یک شرط سخت دارد و آن این است که بایستی یک کاهش «متناسب» در تمام ورودی ها منجر به افزایش در تمام خروجی ها شود. بنابراین به نظر می رسد تعداد واحدهایی که تراکم قوی دارند بسیار کم باشد. در این مقاله ما یک وضعیت جدید از تراکم که دارای محدودیت کمتری است ارائه می دهیم بنام «تراکم اکید». تراکم اکید تشخیص داده
    می شود اگر و تنها اگر کاهش در تمام ورودی ها منجر به افزایش در تمام خروجی ها شود. علاوه بر این در این مقاله ما یک روش جدید برای تشخیص تراکم ارائه می دهیم. سپس روش دیگری را برای تعیین وضعیت تراکم (ضعیف یا اکید) ارائه می دهیم.
    کلیدواژگان: تحلیل پوششی داده ها، تراکم ضعیف، تراکم اکید، تراکم قوی
  • سیروس نظری، عقیله حیدری صفحات 69-90
    سیستم آشوبناک قلب و توانایی روش بهینه سازی ازدحام ذرات (PSO) ما را بر آن داشت تا از مزایای بهینه سازی ازدحام ذرات آشوبناک (CPSO) برای سنکرون سازی مدل سه اسیلاتوری قلب بهره بگیریم. این روش می تواند برای تقویت کنترل کننده در حضور پارامترهای ناشناخته مفید باشد. در این مقاله کنترل تطبیقی (AC) روی مدل تاخیری قلب را اعمال نموده و پایداری سیستم با محک لیاپانوف بررسی می گردد. سپس نتایج با استفاده از الگوریتم CPSO بهبود یافته و تابع هدف مناسبی تعریف می گردد. ار انتها چند مثال بررسی خواهد شد.
    کلیدواژگان: سنکرون سازی، بهینه سازی ازدحام ذرات آشوبناک (CPSO)، کنترل تطبیقی (AC)، مدل سه اسیلاتوری قلب، اسیلاتور غیر خطی
  • محمدرضا شهریاری صفحات 91-102
    با توجه به افزایش عمومی توجه به مقوله کیفیت، توجه به بحث بهینه سازی قابلیت اطمینان در مرحله طراحی از اولویت بالایی برخوردار شده است. این تحقیق بر روی یکی از مدل های موجود در علم قابلیت اطمینان به نام مسئله تخصیص افزونگی متمرکز شده و یک مدل دو هدفه برای این مسئله با سیستم سری-موازی ارائه شده است که در آن نرخ خرابی اجزاء وابسته به تعداد اجزاء فعال می باشد. اهداف این مسئله عباتند از افزایش قابلیت اطمینان سیستم و کاهش هزینه کل تخصی اجزاء. همچنین جهت نزدیک تر شدن این مسئله به جهان واقعی هزینه اتصال داخلی اجزاء نیز به مسئله اضافه شده است که در حوزه الکترونیک یک بحث بسیار متداول می باشد. با توجه به آنکه مسئله تخصیص افزونگی متعلق به دسته مسائل NP. Hard می باشد برای حل مسئله ارائه شده از الکوریتم NSGA-II استفاده شده و برای تنظیم پارامترهای مدل نیز از روش رویه پاسخ استفاده شده است.
    کلیدواژگان: قابلیت اطمینان، سیستم های سری، موازی، مسئله تخصیص افزونگی، الگوریتم NSGA، II، روش رویه پاسخ
|
  • Sahand Daneshvar, Nazila Shahi, Fariba Najafzadeh Pages 5-18
    Data envelopment analysis (DEA) is a technique based on linear programming (LP) to measure the relative efficiency of homogeneous units by considering inputs and outputs. The lack of discrimination among efficient decision making units (DMUs) and unrealistic input-outputs weights have been known as the drawback of DEA. In this paper the new scheme based on a goal programming data envelopment analysis (GPDEA) are developed to moderate the homogeneity and reasonability of weights distribution by using of facet analysis On GPDEA (GPDEA-CCR and GPDEA-BCC) models. These modifications are done by considering the lower bounds for each individual inputs and outputs weights in standard CCR model and an upper bound just for free variable of standard BCC model. In the both of the cases the mentioned modification preserved the inputs and outputs weights from zero value. The modified GPDEA models also improve the discrimination power of DEA. The advantages of each modified GPDEA-CCR and GPDEA-BCC models are shown by some examples.
    Keywords: Data Envelopment Analysis, discrimination power, Facet Analysis, Goal Programming, Weight Dispersion
  • S.H. Nasseri Pages 19-28
    Recently, fuzzy linear programming problems have been considered by many. In the literature of fuzzy linear programming several models are offered and therefore some various methods have been suggested to solve these problems. One of the most important of these problems that recently has been considered; are Fully Fuzzy Linear Programming (FFLP), which all coefficients and variables of the problem are the same kind of fuzzy numbers. One of most common of them is the model in which all fuzzy parameters are discussed by triangle numbers. In this paper, we first define a fully fuzzy linear programming with trapezoidal numbers and then suggest a new method based on reducing the original problem to the problem with triangle number. Specially, a conversion function for converting two trapezoidal and triangular numbers to each other is offered. Finally, the mentioned method is illustrated by a numerical example.
    Keywords: Conversion function, Fully fuzzy linear programming, Multi, objective linear programming, Trapezoidal, triangular fuzzy numbers
  • A. Ghomashi, G. R. Jahanshahloo, F. Hosseinzadeh Lotfi Pages 29-40
    In this paper we present a recurrent neural network model to recognize efficient Decision Making Units(DMUs) in Data Envelopment Analysis(DEA). The proposed neural network model is derived from an unconstrained minimization problem. In theoretical aspect, it is shown that the proposed neural network is stable in the sense of lyapunov and globally convergent. The proposed model has a single-layer structure. Simulation shows that the proposed model is effective to identify efficient DMUs in DEA.
    Keywords: Recurrent neural network, Gradient method, Data Envelopment Analysis, Efficient DMU, Stability, Global convergence
  • A. Khoshnava, M.R. Mozaffari Pages 41-54
    Transportation problem is a linear programming which considers minimum cost for shipping a product from some origins to other destinations such as from factories to warehouse, or from a warehouse to supermarkets. To solve this problem simplex algorithmis utilized. In real projects costs and the value of supply and demands are fuzzy numbers and it is expected that optimal solutions for determining the value of commodities transported from a source to a destination be obtained as a fuzzy. So the first idea is to present the in the full fuzzy condition and then an algorithmwhich is of importance for solving such a problem. In this article, a new algorithm is suggested for solving fully fuzzy transportation problem. This algorithm transforms the fully fuzzy transportation problem into a triple-objective problem and then it utilizes a weighted method for solving multi-objective problems and solves the new problem using simplex transportation method. At the end, the suggested method is utilized for the real data.
    Keywords: fully fuzzy transportation problem, triangular fuzzy numbers, linear multi objective programming
  • M. Abbasi, M. Rostamy, Malkhlifeh Pages 55-68
    Congestion is a wasteful stage of the production process where outputs are reduced due to excessive amount of inputs. There are several approaches in data envelopment analysis (DEA) literatures to treat congestion. The concept of strong and weak congestion first developed by Tone and Sahoo [Tone, K., Sahoo, B.K., 2004. Degree of scale economies and congestion: A unified DEA approach. European Journal of Operational Research 158, 755–772]. Evidence of strong congestion occurs whenever reducing proportionally all inputs can increase all outputs. Tone and Sahoo extended the relationship between congestion and other economic concept such as marginal productivity. They proved that existence of strong congestion is hinged to negative marginal productivity. Nonetheless the definition of strong congestion is too restrictive, since it has severe condition of “proportionate’’ reduction in all inputs causes an augmentation in all outputs. So the number of strongly congested DMUs appeared to be limited. In this paper we define a new less restrictive definition of congestion namely “ strict congestion’’ which is identified if and only if a reduction in all inputs causes an increase in all outputs. Therewith this study first proposes a new approach for the congestion recognition. Then another scheme is presented to determine the status of congestion (weak or strict). The validity of the proposed approach is demonstrated using numerical examples.
    Keywords: Data Envelopment Analysis, Weak congestion, Strict congestion, Strong congestion
  • S. Nazari, A. Heydari Pages 69-90
    Heart chaotic system and the ability of particle swarm optimization (PSO) method motivated us to benefit the method of chaotic particle swarm optimization (CPSO) to synchronize the heart three-oscillator model. It can be a suitable algorithm for strengthening the controller in presence of unknown parameters. In this paper we apply adaptive control (AC) on heart delay model, also examine the system stability by the Lyapunov stability theorem. Then we improve results with using CPSO algorithm and define an appropriate cost function. At the end of we implement the proposed approach on an example.
    Keywords: Chaotic particle swarm optimization (CPSO), adaptive control (AC), heart three, oscillator model, Nonlinear oscillators, Synchronization
  • M. Shahriari Pages 91-102
    Reliability optimization problem has a wide application in engineering area. One of the most important problems in reliability is redundancy allocation problem (RAP). In this research, we worked on a RAP with repairable components and k-out-of-n sub-systems structure. The objective function was to maximize system reliability under cost and weight constraints. The aim was determining optimal components number of each subsystem, including the optimal number of repairmen allocated to each subsystem. Because this model belongs to Np. Hard problem, we used genetic algorithm (GA) for solving the presented model and response surface methodology (RSM) was used for tuning of algorithm parameters. Also for calculating the reliability of each subsystem (and system reliability) we used a simulation method. Finally, a numerical example was solved to test the algorithm performance.
    Keywords: Redundancy Allocation Problem, k-out-of-n sub-systems, Common Cause Failures, genetic algorithm